4 consideraciones de seguridad a medida que el uso de la IA se expande entre los equipos

March 17, 2026

El auge de la adopción de la IA está ampliando la superficie de ataque de los actores maliciosos.  

Según IDC*, se estima que el gasto mundial en IA aumentará a casi 750.000 millones de dólares para 2028. Este valor monetario, que ilustra adopción y crecimiento, también puede verse como una representación directa de la magnitud de los nuevos desafíos en seguridad de datos, con los profesionales de ciberseguridad encargados de gestionar los riesgos de la IA enfrentándose a la pérdida tanto de visibilidad como de control sobre los datos de la empresa.  

Al igual que ocurrió con la adopción de la nube hace una década, las amenazas no se limitan a un comportamiento o un modelo de implantación concretos. 

El uso de «shadow AI» (o uso de herramientas de IA no gestionadas) es un vector de riesgo familiar, donde los empleados cambian el cumplimiento por la conveniencia. Casi la mitad (47 %) de los usuarios de IA generativa utilizan aplicaciones personales de IA, según el Informe sobre la nube y las amenazas de Netskope 2026. Este uso no oficial es problemático porque los empleados podrían estar compartiendo datos sensibles sin saberlo con aplicaciones en la nube de terceros, y la visibilidad y los controles pueden ser un reto para muchas organizaciones.

¿Pero qué pasa con las organizaciones que construyen sus propios modelos privados de IA (a menudo motivados directamente por un esfuerzo por aumentar la seguridad)? Aquí existen muchos riesgos más amplios, incluyendo la responsabilidad de proteger tanto los datos de entrenamiento como los resultados de un modelo.

Y el último ámbito en auge de la IA es la IA agéntica, con agentes autónomos que ejecutan tareas de forma independiente (con poca supervisión humana). un impulso para la productividad, pero que plantea problemas en torno al acceso a los datos y su control. Para 2028, el 25 % de las brechas de seguridad en empresas estarán relacionadas con el abuso de agentes de IA, según una predicción de Gartner.  

Teniendo en cuenta estas tendencias, exploremos algunas consideraciones de seguridad que sirven como una lista de verificación útil para asegurarse de que su organización afronta los riesgos desde todos los ángulos.

1) Use la confianza cero como base de la seguridad de la IA 

Proteger la IA es un desafío único de seguridad de datos debido a la forma en que los modelos de IA procesan las entradas y generan las salidas. Ampliar un marco de seguridad de confianza cero a la IA garantiza que se verifiquen todas las solicitudes (de cada persona, modelo y agente), se supervise cada flujo de datos y se conceda el acceso en función de evaluaciones de riesgo dinámicas y no de permisos estáticos. Las investigaciones demuestran que dos tercios de las organizaciones afirman que sus controles de confianza cero simplemente no pueden proteger las identidades no humanas (NHI, por sus siglas en inglés) en la actualidad, pero el 78 % espera que el crecimiento de las NHI supere el crecimiento de las identidades humanas en los próximos 12 meses: un riesgo inminente. Considere cómo incorporará la seguridad de la IA en sus marcos y arquitecturas de seguridad actuales y resista el atractivo de los productos integrados que añaden complejidad a su oferta y consumen muchos recursos. Busque plataformas unificadas que se beneficien de integraciones de políticas de seguridad y administración para reducir la carga administrativa. 

2) Perfeccione su omnisciencia ante la omnipresencia de la IA (consiga un ojo que todo lo vea)

Solo el 6% de las organizaciones tienen una visibilidad total del uso de la IA, y todos sabemos que los equipos de seguridad no pueden proteger lo que no ven, un desafío que empeora cuando las líneas entre el uso de las herramientas personales y corporativas se difuminan. Sin visibilidad sobre cómo y dónde se utilizan las herramientas de IA, una organización queda expuesta a posibles filtraciones de datos. Haga de las herramientas que proporcionan visibilidad una prioridad máxima y un punto de partida para la seguridad de la IA.

Tu estrategia de seguridad en IA debe incluir algo más que solo nuevas aplicaciones y modelos de IA. Todas las aplicaciones SaaS han estado introduciendo mejoras de IA en los últimos años y, aunque al inicio se promocionaron mucho, estas actualizaciones impulsadas por IA se están convirtiendo en la norma. Esto significa que cada día una de tus herramientas SaaS aprobadas podría introducir nuevas funcionalidades impulsadas por IA que quizá no cumplan con tus requisitos de seguridad. Estas actualizaciones desapercibidas se producen a menudo sin ningún tipo de visibilidad para los equipos de seguridad, que deberían evaluar el riesgo antes de aprobarlo. La supervisión y administración manual no serán suficientes aquí, así que usa el mismo enfoque para la gestión de riesgos de IA que el que usarías para los riesgos de la nube. El Netskope Cloud Confidence Index (CCI) proporciona información en tiempo real sobre más de 83.000 aplicaciones en la nube y SaaS, así como evaluación de riesgos para más de 10.000 servidores públicos MCP, identificando atributos de riesgo, tipos de autenticación y versiones de protocolo antes del despliegue. ¡Externaliza el trabajo pesado!

3) Tener en cuenta la brecha de gobernanza de la IA

Dos tercios de las organizaciones califican su gobernanza de la IA como meramente reactiva o en desarrollo; un tercio describe una adopción fragmentada y el 38 % desearía haber iniciado la gobernanza antes de que la adopción se ampliara.  Sin directrices claras, las empresas que utilizan la IA abren la puerta a amenazas de seguridad. Evite formar parte del 38 % y establezca un marco de políticas para garantizar el uso adecuado de la IA (tanto antes como después del despliegue).

4) Mejorar las habilidades y las herramientas

Casi tres cuartas partes (73%) de las personas en el Reino Unido no han recibido formación o educación en IA, sin embargo, el 31% de las organizaciones confían en políticas escritas y el cumplimiento de los empleados como su método principal de aplicación para la seguridad de la IA, básicamente un sistema de honor envuelto en misterio. La disparidad crea riesgos de uso inadecuado de herramientas y casi inevitablemente hace que las organizaciones incumplan las normativas de cumplimiento, particularmente en sectores altamente regulados.

Invierta en formación y herramientas para ayudar a apoyar interacciones adecuadas con la IA, asegurando que todos en la organización tengan claro los riesgos, las políticas aprobadas para el uso seguro de la IA y las normativas que deben conocer. Pero no se detenga aquí. Incluso la mano de obra más cualificada necesita ayuda, y Gartner predice que, para 2028, al menos 15 % de las decisiones empresariales diarias se tomarán de forma autónoma mediante IA agéntica, frente a 0 % en 2024. Las habilidades humanas en materia de seguridad de la IA son como los carnés de conducir; algo que puede reducir el riesgo de forma sistemática, pero que es mejor desplegarlo junto con herramientas de gestión de riesgos, como los cinturones de seguridad y el frenado ABS —y algo que puede resultar cada vez más irrelevante cuando los coches sin conductor salgan a la carretera. Invierta en proteger modelos de IA y los datos corporativos con los que interactúan, reconociendo dónde se necesitan nuevas herramientas (como gateways de seguridad y barreras de seguridad de IA) junto con las mejores prácticas existentes para ayudar a los usuarios humanos a tomar decisiones seguras. 

Seguridad en el carril rápido de la IA 

Netskope permite a sus clientes adoptar la IA a escala empresarial sin ampliar el riesgo. Protegemos a usuarios, agentes, aplicaciones y datos a través de IA pública, privada y agéntica con protección unificada, desde el endurecimiento del modelo previo al despliegue hasta la prevención de amenazas en tiempo de ejecución. Netskope One AI Security es la única plataforma que protege cada interacción con IA manteniendo la velocidad y experiencia que sus equipos exigen. 

Muévase rápido. Manténgase protegido. Mantenga el control total.

Para obtener más información sobre la protección de la IA en toda la empresa, visite netskope.com/ai.

*IDC Market Forecast, Previsión mundial de gasto en TI para inteligencia artificial, 2024-2028, Rick Villars et al., octubre de 2024, Doc #US52635424

author image

Rich Beckett

Rich Beckett es un gerente senior de marketing de producto en Netskope centrado en destacar el valor de negocio de SASE para los clientes en todo EMEA.
Rich Beckett es un gerente senior de marketing de producto en Netskope centrado en destacar el valor de negocio de SASE para los clientes en todo EMEA.
Keep a close eye on The Lens